Rola sędziego a wykorzystywanie narzędzi AI
Potrzeba zakwalifikowania systemów AI jako systemów wysokiego ryzyka wiąże się z potrzebą wyeliminowania potencjalnego ryzyka stronniczości.
Świat sztucznej inteligencji stanął na głowie. Rekomendacji, interpretacji jest pewnie dziś tyle, że gdyby nie era cyfrowej dokumentacji, Las Amazoński skurczyłby się do rozmiarów naszego rodzimego Kampinosu.
Używanie narzędzi AI w tzw. obszarach newralgicznych, gdzie ryzyko naruszenia praw jest wysokie, operuje pojęciami formułowanymi na dość dużym poziomie ogólności, co z jednej strony daje możliwość elastycznej interpretacji i pro futuro stara się zagospodarowywać rozwój funkcjonalności narzędzi AI, z drugiej zaś strony stawia pytania, w jakich konkretnych stanach faktycznych używanie narzędzi AI wiąże się np. z zakwalifikowaniem ich do kategorii systemów wysokiego ryzyka.
Obszary wysokiego ryzyka
AI Act, czyli „unijny kodeks sztucznej inteligencji”, określa obszary, w których stosowane systemy AI kwalifikowane są jako systemy wysokiego ryzyka. Dla przykładu, załącznik nr III do AI Act pośród takich obszarów, jak:
∑ biometria, infrastruktura krytyczna;
∑ kształcenie i szkolenie;
∑ zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia;
∑ ściganie przestępstw w zakresie, w jakim wykorzystywanie przedmiotowych systemów jest dozwolone na podstawie odpowiednich przepisów prawa Unii lub prawa krajowego;
∑ zarządzanie migracją, azylem i kontrolą graniczną, w zakresie, w jakim...
Archiwum Rzeczpospolitej to wygodna wyszukiwarka archiwalnych tekstów opublikowanych na łamach dziennika od 1993 roku. Unikalne źródło wiedzy o Polsce i świecie, wzbogacone o perspektywę ekonomiczną i prawną.
Ponad milion tekstów w jednym miejscu.
Zamów dostęp do pełnego Archiwum "Rzeczpospolitej"
ZamówUnikalna oferta


![[?]](https://static.presspublica.pl/web/rp/img/cookies/Qmark.png)